-
1 Markov chain
цепь f Марковаabsolute distribution of а Markov chain абсолютное/безусловное распределение цепи Марковаasymptotic aggregation of states of a Markov chain асимптотическое укрупнение состояний цепи Марковаcyclic Markov chain циклическая/периодическая цепь Марковаdecomposable Markov chain разложимая/приводимая цепь Марковаindecomposable Markov chain неразложимая/неприводимая цепь Марковаirreducible Markov chain неприводимая/неразложимая цепь Марковаperiodic Markov chain периодическая/циклическая цепь Марковаreducible Markov chain приводимая/разложимая цепь МарковаАнглийский-русский словарь по теории вероятностей, статистике и комбинаторике > Markov chain
-
2 Markov chain
цепь Маркова
—
[ http://www.iks-media.ru/glossary/index.html?glossid=2400324]Тематики
- электросвязь, основные понятия
EN
Англо-русский словарь нормативно-технической терминологии > Markov chain
-
3 Markov chain
цепь Маркова; марковская цепь -
4 Markov chain
pitch chain — калиброванная цепь, цепь с калиброванным шагом
-
5 Markov chain
цепь Маркова, марковская цепьБольшой англо-русский и русско-английский словарь > Markov chain
-
6 Markov chain
марковская цепь, цепь Маркова -
7 Markov chain
-
8 Markov chain
1) Техника: марковская цепь2) Вычислительная техника: цепь Маркова -
9 markov chain
-
10 Markov chain
-
11 Markov chain
марковская цепь, цепь Маркова -
12 Markov chain
марковская цепь, цепь МарковаThe New English-Russian Dictionary of Radio-electronics > Markov chain
-
13 Markov chain
цепь Маркова, марковская цепьEnglish-Russian dictionary of computer science and programming > Markov chain
-
14 Markov chain
цепь МарковаEnglish-Russian dictionary of technical terms > Markov chain
-
15 markov chain
цепь марковаEnglish-Russian dictionary of technical terms > markov chain
-
16 Markov chain
мат.цепь Маркова, марковская цепь -
17 Markov chain
-
18 Markov chain
English-Russian dictionary of program "Mir-Shuttle" > Markov chain
-
19 Markov chain
-
20 Markov chain Monte Carlo
Универсальный англо-русский словарь > Markov chain Monte Carlo
См. также в других словарях:
Markov chain — Mark ov chain, n. [after A. A. Markov, Russian mathematician, b. 1856, d. 1922.] (Statistics) A random process (Markov process) in which the probabilities of discrete states in a series depend only on the properties of the immediately preceding… … The Collaborative International Dictionary of English
Markov chain — A simple two state Markov chain. A Markov chain, named for Andrey Markov, is a mathematical system that undergoes transitions from one state to another, between a finite or countable number of possible states. It is a random process characterized … Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov chain — Markovo grandis statusas T sritis automatika atitikmenys: angl. Markov chain vok. Markovkette, f rus. марковская цепь, f; цепь Маркова, f pranc. suite markovienne, f … Automatikos terminų žodynas
Markov chain geostatistics — refer to the Markov chain models, simulation algorithms and associated spatial correlation measures (e.g., transiogram) based on the Markov chain random field theory, which extends a single Markov chain into a multi dimensional field for… … Wikipedia
Markov Chain Monte Carlo — Verfahren (kurz MCMC Verfahren; seltener auch Markov Ketten Monte Carlo Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow Kette,… … Deutsch Wikipedia
Markov chain Monte Carlo — MCMC redirects here. For the organization, see Malaysian Communications and Multimedia Commission. Markov chain Monte Carlo (MCMC) methods (which include random walk Monte Carlo methods) are a class of algorithms for sampling from probability… … Wikipedia
Markov chain mixing time — In probability theory, the mixing time of a Markov chain is the time until the Markov chain is close to its steady state distribution. More precisely, a fundamental result about Markov chains is that a finite state irreducible aperiodic chain has … Wikipedia
Markov chain Monte Carlo — Les méthodes MCMC (pour Markov chain Monte Carlo) sont une classe de méthodes d échantillonnage à partir de distributions de probabilité. Ces méthodes se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les… … Wikipédia en Français
Markov chain — /mahr kawf/, Statistics. a Markov process restricted to discrete random events or to discontinuous time sequences. Also, Markoff chain. [1940 45; see MARKOV PROCESS] * * * … Universalium